Det finns mycket potential i AI där vi kan konstatera att självkörande fordon sannolikt är en realitet inom en snar framtid, även om utvecklingen inte riktigt gått så fort som vi hade trott eller kanske önskat. Samtidigt kan vi konstatera att vi redan idag får allehanda rådgivning och förslag som verkligen imponerar där ChatGPT givit AI ett välbehövligt ansikte. Hur AI utvecklar AI är kanske det som imponerar mest.
Vad är scenariot om AI blir mycket smartare än oss människor, alltså mycket mycket smartare? När AI ser på oss människor som vi ser på växter, inte speciellt smarta och otroligt långsamma. Det brukar kallas ASI, artificiell superintelligens.
Någon kanske säger att det ligger rätt långt bort i tiden. Tidigare var tron att det krävdes ett artificiellt neuralt nätverk som var uppbyggt på samma sätt som våra hjärnor och att Moors lag var den begränsande faktorn. Beräkningskapaciteten fördubblas förvisso vartannat år men att det är först nu det finns en superdator där antalet transistorer kan mäta sig med antalet synapser i hjärnan hos en människa.
Large language models, LLM, och transformers, det vill säga teknik som innebär att man inte alls behöver bygga intelligens som hjärnan är uppbyggd har förändrat spelplanen. Nya förbättrade LLM:er kommer nu allt snabbare eftersom AI hjälper till att kontinuerligt förbättra dessa. Tidigare påstods att ASI låg hundra eller till och med flera hundra år in i framtiden, nu säger de flesta AI-forskarna att det kommer gå mycket fortare än så och några att vi kan komma se ASI redan inom tio år.
ASI kan hjälpa mänskligheten på ett extremt djupgående sätt och så länge vi håller oss inom fysikens lagar finns nästan inga begränsningar. Till exempel bota alla världens sjukdomar, utrota svält, lösa energifrågan och lösa alla stora konflikter i världen. Här börjar dock molnen torna upp sig vid horisonten. Vad är det som säger att alla kommer utnyttja AI till att göra gott? Kommer AI själv göra det? Om vi vill bygga en väg eller en fabrik sågar vi glatt ner träd och kör över växter, kommer AI göra samma sak med oss?
Några frågor som stöts och blöts just nu är bland annat om koden till LLM och transformers ska vara tillgänglig som open source. Ja säger några, det bäddar för öppenhet och kontroll, nej säger andra, då riskerar AI att hamnar i orätta händer och det vore samma sak som om vi tillgängliggjorde recepten för att bygga biologiska vapen eller atombomber till allmänheten.
En stor fråga är hur hårt AI ska regleras? Stenhårt säger några, vi måste pausa utvecklingen helt. Väldigt lite säger andra, nya releaser blir bättre och bättre där hallucinationer och annat snabbt städas bort.
På Säkerhetsdagen den 5:e december kommer vi att vända in och ut på bland annat EU:s kommande reglering på AI-området. En reglering som riskerar att vara förlegad redan innan den lämnat ritbordet. Hur borde området regleras och vad är vägen fram för att ge AI dess rätta potential?
Varmt välkomna!
Av: Jonas Appelqvist.